【glossary】エポック(epoch)
エポック(epoch)とは学習データを全て1回通過する学習の単位、あるいは回数のことです。学習回数とも呼ばれます。
学習において、過学習が発生せずかつかつ訓練精度と予測精度が良いエポック数を見つけるのがポイントとなります。
エポック とはGPTなどのニューラルネットワークの訓練において訓練パラメーターの一つのことで、訓練データセット全体がネットワークを通過するプロセスを言います。
1000個の訓練データを持っていてバッチサイズ(一度にネットワークを通過するデータの数)が10の場合、1エポックを完了するには100回のバッチが必要となります。
多くのエポックで訓練するとネットワークはデータからより多くの特徴を学び取ることができますが、弊害として訓練時間も長くなります。また、あまりにも多くのエポックで訓練を行うとモデルが訓練データに過学習(overfitting)する可能性があります。過学習とは、モデルが訓練データに対しては高い精度を示すものの、他の新規のデータに対しては低いパフォーマンスが結果となる現象です。
エポック数は適切に選ぶ必要があります。これは一般的に検証データ(訓練データとは別のデータセット)に対するモデルのパフォーマンスを確認しながら調整することになります。